Oltre la Richiesta Grezza
Quando si inizia con i Modelli Linguistici di Grande Dimensione (LLM), gli sviluppatori utilizzano tipicamente chiamate API dirette (come la libreria Python di OpenAI) per inviare un prompt e ricevere una risposta. Sebbene funzionale, questo approccio diventa ingestibile man mano che le applicazioni crescono.
Il Problema dell'Assenza di Stato
I Modelli Linguistici di Grande Dimensione sono intrinsecamente senza stato. Ogni volta che invii un messaggio, il modello "dimentica" chi sei e ciò che hai detto precedentemente. Ogni interazione è una pagina bianca. Per mantenere una conversazione, devi passare manualmente l'intero cronologico al modello ogni singola volta.
La Soluzione di LangChain
LangChain introduce il wrapper per il modello ChatOpenAI modello. Questo non è solo un wrapper per caso—costituisce la base per la modularità. Astrattendo la chiamata al modello, possiamo successivamente scambiare modelli, inserire memoria e utilizzare template senza riscrivere l'intero codice.
Your task is to create a
ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
from langchain_openai import ChatOpenAImy_llm = ChatOpenAI(temperature=0.7)